专利摘要:
オーディオ装置は、各々のテストオーディオ信号が信号成分及び雑音成分を含む複数のテストオーディオ信号を、ユーザに提示するように構成される。ユーザ嗜好プロセッサ109は、テストオーディオ信号に関するユーザ嗜好フィードバックを受け取り、ユーザ嗜好フィードバックに応じた当該ユーザ用の個人化パラメータ及び複数のテストオーディオ信号のうち少なくとも1つのテストオーディオ信号の雑音成分に関する雑音パラメータを生成する。オーディオプロセッサ113は、個人化パラメータに応じたオーディオ信号を処理し、結果として得られる信号が、ユーザに提示される。本発明は、ユーザの改善された特徴付けを可能にすることができ、それによって、処理の改善された適応及びゆえに提示される信号の改善された個人化をもたらす。本発明は、例えば、聴覚障害のあるユーザ用の補聴器にとって有益でありえる。
公开号:JP2011512768A
申请号:JP2010547282
申请日:2009-02-16
公开日:2011-04-21
发明作者:スヒンデル;ニコレ;エイチ ファン;フェグテン;スザンネ ファン;ジュリエン;エル ベルヒェレ
申请人:コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ;
IPC主号:H04R25-00
专利说明:

[0001] 本発明は、オーディオ装置及びその動作方法に関し、排他的でないが特に、補聴器用のオーディオ処理のユーザ適応に関する。]
背景技術

[0002] 個人ユーザにあわせたオーディオシステムの適応は、多くのアプリケーションにおいて重要になっている。例えば、個人ユーザの特定の特性にあわせて補聴器を適応させ、カスタマイズすることは、一般的なプロシージャになっている。このようなカスタマイゼーションは、例えば、ユーザの外形と正確に合致する形状を有するインイヤ補聴器を生成するために、個人ユーザの耳のキャストを作ることを含む。]
発明が解決しようとする課題

[0003] 近年、ユーザの聴力低下及び/又は嗜好にあわせて、生成されるオーディオ信号の音量をカスタマイズすることが更に提案されている。具体的には、国際公開第2004/054318A1号パンフレットは、信号処理特性が、個人ユーザ用のカスタマイズされた音量設定を提供するように適応されることができる携帯可能な通信装置を開示している。]
[0004] しかしながら、このような音量補償は、多くの状況においてユーザ経験を改善することができるが、効果は、相対的に制限される傾向があり、ユーザ経験及びオーディオ適応は、最適には及ばない傾向がある。]
[0005] それゆえ、改善されたオーディオ装置が有利であり、特に、増大された柔軟性、改善されたユーザカスタマイゼーション、異なるオーディオ環境に対する改善された適応、より広い多様な特性の適応、実際的な実現、改善されたユーザ経験及び/又は改善された性能を可能にする装置が、有利である。]
[0006] 従って、本発明は、上述の不利益の1又は複数を、単独で又は任意の組み合わせにおいて好適に緩和し、軽減し又は除去することを目的とする。]
課題を解決するための手段

[0007] 本発明の1つの見地によれば、各テストオーディオ信号が信号成分及び雑音成分を含む複数のテストオーディオ信号を提供する手段と、複数のテストオーディオ信号をユーザに提示する手段と、複数のテストオーディオ信号に関するユーザ嗜好フィードバックを受け取る手段と、ユーザ嗜好フィードバックに応じた当該ユーザ用の個人化パラメータ及び複数のテストオーディオ信号のうち少なくとも1つテストオーディオ信号の雑音成分に関する雑音パラメータを生成する手段と、処理された信号を生成するために、個人化パラメータに応じてオーディオ信号を処理する処理手段と、処理された信号をユーザに提示する手段と、を有するオーディオ装置が提供される。]
[0008] 本発明は、改善されたユーザ経験を可能にすることができ、及び/又はユーザ特性及び/又はオーディオ信号及び/又はオーディオ環境の特性にあわせた、オーディオ信号の改善された適応を可能にすることができる。特に、本発明は、特定のオーディオ知覚ユーザ特性にあわせた改善された適応を可能にすることができる。例えば、ユーザのオーディオ知覚特性は、さまざまな異なる雑音状況において著しく異なることがあり、本発明によるオーディオ装置は、このような雑音依存が決定され、ユーザにあわせてオーディオ処理を適応させる際に自動的に考慮されることを可能にしうる。]
[0009] 個人化パラメータは、雑音特性に依存して、ユーザ嗜好を反映させることができる。雑音パラメータは、例えば信号成分と雑音成分との間の関係(例えば信号対雑音標示)を反映する絶対値又は相対値でありうる。雑音パラメータは、テストオーディオ信号の1又は複数における雑音のレベル及び/又は分布を反映することができる。個人化パラメータは、他のテストオーディオ信号よりもユーザによって好まれるテストオーディオ信号と関連する雑音特性に応じて決定されることができる。]
[0010] テストオーディオ信号の信号成分は、具体的には、スピーチ信号でありうる。テストオーディオ信号の雑音成分は、例えば背景雑音、ホワイトノイズ、(干渉する)スピーチ信号、音楽等でありうる。信号成分及び雑音成分は、それぞれ異なる空間特性を有することがあり、個人化パラメータは、信号のうち1又は複数の信号の雑音成分の空間特性に応じて、決定されることができる。]
[0011] オーディオ装置は、具体的には、補聴器でありえ、ユーザは、聴力障害のあるユーザでありうる。従って、個人化パラメータは、聴力障害のあるユーザの特定の聴力障害を反映することができる。]
[0012] テストオーディオ信号の1又は複数は、予め決められた信号成分の組から信号成分を選択し、予め決められた雑音成分の組から雑音成分を選択し、選択された信号成分及び雑音成分を組み合わせることによって、生成されることができる。選択された信号成分及び/又は選択された雑音成分は、組み合わせの前に個別に処理されることができる。このような処理は、例えば、レベル調整、フィルタリング、空間処理等を含みうる。]
[0013] 処理されるオーディオ信号は、例えば1又は複数のマイクロホンからのリアルタイム信号でありえ、それによって、現在のオーディオ環境を表現する。]
[0014] 本発明の任意のフィーチャによれば、個人化パラメータは、雑音パラメータの関数であり、処理手段は、オーディオ信号に関する第1の雑音特性を決定し、第1の雑音特性に応じて個人化パラメータの値を決定し、個人化パラメータの値に応じて、オーディオ信号の処理を適応させるように構成される。]
[0015] このフィーチャは、改善された性能を与えることができ、及び/又は実現を容易にすることができる。特に、本発明のフィーチャは、現在経験されている条件にあわせたオーディオ装置の改善された動的な適応を可能にすることができる。]
[0016] 個人化パラメータは、具体的には、各々が特定の雑音パラメータ値と関連する複数の異なる個人化値を含む複合個人化パラメータでありうる。処理手段は、オーディオ信号に関する雑音パラメータ値に最も密接に合致する雑音パラメータ値を決定することができ、それに応じて、個人化パラメータの関連する値を取り出すことができる。]
[0017] 個人化パラメータ及び/又はパラメータ値は、例えば絶対数値(例えば好適な音レベル)、相対数値(例えば好適な又は最小限の信号対雑音比)を表現することができ、又は例えばより複雑なユーザ嗜好(例えば雑音レベルの関数としての歪み対雑音抑制のトレードオフ)を表現することができる。従って、個人化パラメータの値は、数値である必要はなく、例えば1又は複数の変数の関数又は好適な処理特性若しくはアルゴリズムの標示でありえる。]
[0018] 本発明の任意のフィーチャによれば、個人化パラメータは、信号対雑音関係に対する嗜好の標示を含む。]
[0019] このフィーチャは、改善された性能を与えることができ、ユーザの特定の特性及びオーディオ信号の任意の特性にあわせた、提示される信号の改善された適応を可能にすることができる。信号対雑音関係は、例えば信号対雑音比でありうる。]
[0020] 本発明の任意のフィーチャによれば、信号対雑音関係に対する嗜好は、ユーザの許容できるスピーチ了解度のために必要な信号対雑音関係の標示を含む。]
[0021] このフィーチャは、改善された性能を与えることができ、特に、ユーザの特定の特性及びオーディオ信号の任意の特性にあわせた提示される信号の改善された適応を可能にすることができる。雑音関係に対する嗜好は、例えば、ユーザによって示される信号対雑音比を、ユーザがスピーチを理解することができる最低のレベルであるように表現することができる。こうして、ユーザにとっての許容できるスピーチ了解度は、ユーザによって評価されることができるとともに、ユーザ嗜好のフィードバックにおいて反映されることができる。]
[0022] 本発明の任意のフィーチャによれば、個人化パラメータは、雑音分布に依存する。]
[0023] このフィーチャは、改善された性能を与えることができ、特に、ユーザの特定の特性及びオーディオ信号の任意に特性にあわせた、提示される信号の改善された適応を可能にすることができる。雑音分布は、空間分布でありえ、及び/又は時間及び/又は周波数ドメインの分布でありうる。]
[0024] 本発明の任意のフィーチャによれば、個人化パラメータは、信号歪みに対する嗜好の標示を含む。]
[0025] このフィーチャは、改善された性能を与えることができ、特に、ユーザの特定の特性及びオーディオ信号の任意の特性にあわせた、提示される信号の改善された適応を可能にすることができる。歪みに対する嗜好の標示は、例えば、ユーザによって知覚できない又は取るに足らないと考えられる最大の許容できる歪み及び/又は歪みレベルを示すことができる。歪みは、処理されるオーディオ信号の信号成分と、この処理の前のオーディオ信号との間の違いの程度を表現することができる。]
[0026] 本発明の任意のフィーチャによれば、個人化パラメータは、スピーチ了解度パラメータに対する嗜好の標示を含む。]
[0027] このフィーチャは、改善された性能を与えることができ、特に、ユーザの特定の特性及びオーディオ信号の任意の特性にあわせた、提示される信号の改善された適応を可能にすることができる。スピーチ了解度パラメータは、例えばスピーチ強調アルゴリズムのパラメータ又は設定でありうる。スピーチ強調アルゴリズムは、増大される分離を犠牲にして、スピーチの了解度を改善することができる。例えば、スピーチ了解度は、干渉する音のレベルを低減することによって増大されることができる。]
[0028] 本発明の任意のフィーチャによれば、個人化パラメータは、信号歪み及び雑音抑制パラメータのトレードオフに対する嗜好の標示を含む。]
[0029] このフィーチャは、改善された性能を与えることができ、特に、ユーザの特定の特性及びオーディオ信号の任意の特性にあわせた、提示される信号の改善された適応を可能にすることができる。特に、フィーチャは、特定のユーザに合わせるために、雑音及びオーディオ品質のトレードオフの自動化された適応を可能にすることができる。]
[0030] 本発明の任意のフィーチャによれば、個人化パラメータは、スピーチ了解度及びオーディオビーム幅のトレードオフに対する嗜好の標示を含む。]
[0031] このフィーチャは、改善された性能を与えることができ、特に、ユーザの特定の特性及びオーディオ信号の任意の特性にあわせた、提示される信号の改善された適応を可能にすることができる。特に、フィーチャは、特定のユーザに合わせるために、所望のスピーカを分離することと、周囲オーディオを提供することとの間のトレードオフの自動化された適応を可能にすることができる。]
[0032] 本発明の任意のフィーチャによれば、処理手段が、個人化パラメータに応じて、オーディオ信号のイコライゼーションを適応させるように構成される。]
[0033] このフィーチャは、改善された性能を与えることができ、特に、ユーザの特定の特性及びオーディオ信号の任意の特性に合わせた、提示される信号の改善された適応を可能にすることができる。多くの実施形態において、フィーチャは、改善されたユーザ経験を提供することができるとともに、例えば、聴力障害のあるユーザによってスピーチ知覚を改善することができる。]
[0034] 本発明の任意のフィーチャによれば、処理手段は、個人化パラメータに応じてオーディオ信号の圧縮を適応させるように構成される。]
[0035] このフィーチャは、改善された性能を与えることができ、特に、ユーザの特定の特性及びオーディオ信号の任意の特性にあわせた、提示される信号の改善された適応を可能にすることができる。多くの実施形態において、フィーチャは、改善されたユーザ経験を提供することができ、例えば聴力障害のあるユーザによるスピーチ知覚を改善することができる。]
[0036] 本発明の任意のフィーチャによれば、処理手段は、個人化パラメータに応じて、オーディオ信号のスピーチ強調処理を適応させるように構成される。]
[0037] このフィーチャは、改善された性能を与えることができ、特に、ユーザの特定の特性及びオーディオ信号の任意の特性にあわせた、提示される信号の改善された適応を可能にすることができる。]
[0038] 本発明の任意のフィーチャによれば、処理手段は、個人化パラメータ応じて、オーディオ信号のためのオーディオビームフォーミングを適応させるように構成される。]
[0039] このフィーチャは、改善された性能を与えることができ、特に、ユーザの特定の特性及びオーディオ信号の任意の特性にあわせた、提示される信号の改善された適応を可能にすることができる。多くの実施形態において、フィーチャは、改善されたユーザ経験を提供することができ、例えば、聴力障害のあるユーザによるスピーチ知覚を改善することができる。このフィーチャは、例えば、所望の信号の知覚と、個人ユーザの特定の嗜好について最適化される背景オーディオ環境の知覚との間のトレードオフを可能にすることができる。]
[0040] 本発明の任意のフィーチャによれば、処理手段は、個人化パラメータに応じてオーディオ信号の雑音抑制処理を適応させるように構成される。]
[0041] このフィーチャは、改善された性能を与えることができ、特に、ユーザの特定の特性及びオーディオ信号の任意の特性にあわせた、提示される信号の改善された適応を可能にすることができる。多くの実施形態において、フィーチャは、改善されたユーザ経験を提供することができ、例えば、聴力障害のあるユーザによるスピーチ知覚を改善することができる。]
[0042] 本発明の任意のフィーチャによれば、テストオーディオ信号は、空間バイノーラルオーディオ信号を含む。]
[0043] このフィーチャは、改善された性能を与えることができ、特に、ユーザの特定の特性及びオーディオ信号の任意の特性にあわせた、提示される信号の改善された適応を可能にすることができる。特に、フィーチャは、ユーザのオーディオ知覚をより密接に表現する個人ユーザ特性の改善された決定を可能にすることができる。例えば、アプローチは、ヘッドホン(バイノーラル補聴器を含む)を使用しながら、ユーザの空間フィルタリング能力の特性が決定されることを可能にすることができ、それによって、オーディオ装置の改善された適応を可能にする。]
[0044] 本発明の任意のフィーチャによれば、テストオーディオ信号は、話された文を含むオーディオ信号及び話された数字のシーケンスを含むオーディオ信号の少なくとも1つを含む。]
[0045] このフィーチャは、改善された性能を与えることができ、特に、ユーザの特定の特性及びオーディオ信号の任意の特性にあわせた、提示される信号の改善された適応を可能にすることができる。特に、フィーチャは、ユーザのオーディオ知覚をより密接に表現する個人ユーザ特性の改善された決定を可能にすることができる。]
[0046] 本発明の別の見地によれば、オーディオ装置の動作方法であって、各テストオーディオ信号が信号成分及び雑音成分を含む複数のテストオーディオ信号を提供するステップと、複数のテストオーディオ信号をユーザに提示するステップと、複数のテストオーディオ信号に関するユーザ嗜好フィードバックを受け取るステップと、ユーザ嗜好フィードバックに応じた当該ユーザ用の個人化パラメータ、及び複数のテストオーディオ信号のうち少なくとも1つのテストオーディオ信号の雑音成分に関する雑音パラメータを生成するステップと、処理された信号を生成するために、個人化パラメータに応じてオーディオ信号を処理するステップと、処理された信号をユーザに提示するステップと、を含む方法が提供される。]
[0047] 本発明のこれら及び他の見地、フィーチャ及び利点は、以下に記述される(複数の)実施形態から明らかであり、それらに関して、説明される。]
図面の簡単な説明

[0048] 本発明のある実施形態によるオーディオ装置の例を示す図。
本発明のある実施形態によるオーディオ装置の動作方法の例を示す図。
本発明のある実施形態によるテスト信号を生成する機能の例を示す図。
本発明のある実施形態によるオーディオ装置の動作方法の例を示す図。]
実施例

[0049] 本発明の実施形態は、例えば、図面を参照して単なる例示によって記述される。]
[0050] 以下の記述は、補聴器の個人化に適用できる本発明の実施形態に焦点をあわせている。しかしながら、本発明は、この用途に限定されず、例えば移動電話のような個人的な又は携帯可能な通信装置を含む多くの他のオーディオ装置にも適用されうることが分かるであろう。記述される例において、スピーチオーディオ信号は、スピーチテスト信号について受け取られるユーザフィードバックに基づいて処理される。しかしながら、他の実施形態において、他のタイプのオーディオ信号が、テスト信号として処理され及び/又は使用されることができることが分かるであろう。]
[0051] 図1は、本発明のある実施形態によるオーディオ装置の例を示している。具体的な例において、オーディオ装置は、聴力障害のあるユーザのための聴覚装置である。] 図1
[0052] 図1の聴覚装置は、ユーザにオーディオ信号を提示する機能を含む。具体的には、マイクロホンによって拾われる信号が、処理され、インイヤヘッドホンを介して、ユーザに出力されることができる。信号の処理は、特定のユーザ特性及び嗜好と合致するように、更に個人化されることができる。従って、補聴器は、ユーザにさまざまなテスト信号を提示し、嗜好フィードバックを受け取る機能を有する。この嗜好フィードバックに応じて、個人化パラメータが決定され、マイクロホン信号の処理が、この個人化パラメータに応じて適応される。] 図1
[0053] 更に、処理の個人化は、信号の雑音特性に依存し、装置は、雑音依存の個人化パラメータを決定するための機能を有する。具体的には、ユーザは、さまざまな所望の信号を表現するだけでなく、さまざまな雑音状況も表現する多様な異なるテスト信号を提示される。従って、個人化パラメータ決定において使用される刺激は、雑音の中のスピーチ、雑音のみ、(異なるタイプの雑音をもつ)雑音の中のトーン等を含むことができる。このようなアプローチは、ユーザの非常に良好な特徴付けを提供する個人化パラメータの決定を可能にすることができる。]
[0054] 特に、耳の性能、及び受信信号を解析し、例えば所望のスピーチ及び雑音を区別するための脳の能力は、ユーザ間及び特に聴力障害をもつユーザ間で大幅に異なることがある。更に、このようなバリエーションは、スピーチ信号自体の特性だけでなく、オーディオ雑音環境にも大きく依存しうる。記述されるアプローチは、このような個人的な特性及び嗜好が決定されることを可能にするテスト信号を使用する。こうして、所望の信号のみを静かに含むクリーンなテスト信号を使用する通常のアプローチと比較して、本発明のアプローチは、要求される実際的な環境により一層適した個人化パラメータの決定を可能にする。]
[0055] 例えば、同じユーザパラメータ嗜好は、それぞれ異なる雑音状況について全く異なることがありえることが分かった。例えば、好適なボリューム設定、雑音低減と歪みとの間のトレードオフ等は、非常に大きく異なることがある。現在のシステムは、雑音依存の個人化パラメータ及び適応フェーズを決定するために、較正フェーズを使用し、この個人化パラメータの適用は、処理される信号について実際に経験される雑音に依存する。]
[0056] 特に、所与の雑音状況について個人設定を決定した後、聴覚装置は、オーディオ処理を最適化するために、これらの設定を使用する。例えば、スピーチ強調は、雑音のレベル、雑音のタイプ(例えば音声又は音楽又は道路の雑音)、雑音の周波数分布、雑音の空間属性等の要素に依存して、個人化されることができる。聴覚装置は、例えばこれらの特性及び決定された個人化嗜好に依存して、例えば、良好なスピーチ了解度に必要とされる個人的な信号対雑音比、雑音の存在下でのスピーチ信号の好適なイコライゼーション及び/又は圧縮、好適なオーディオビームフォーミング、及び/又は雑音環境において所望のスピーチ信号を分離するために使用される好適な雑音抑制等を提供するように、処理を適応させる。]
[0057] 例えば、聴覚装置は、現在の信号対雑音比を決定し、特に特定のユーザに適した特定の環境下でのみ雑音抑制を適用することができ、及び/又は雑音のタイプを決定し、雑音の特定のタイプに関してのみ雑音抑制を適用することができる等である。]
[0058] 雑音依存の個人化パラメータの生成と、この特定の雑音環境において経験される雑音及びユーザ嗜好との両方に応じた、処理の組み合わせられ統合される適応は、較正がクリーンなスピーチ信号に基づく(すなわち個人化パラメータが雑音依存でない)システムと比較して性能の大きな改善をもたらす。実際に、性能改善は、雑音依存でない個人化パラメータに応じ且つ処理される信号の雑音特性に応じた非依存的な適応が実施されるシステムと比較して大きい。特に、較正及び適応ステージの両方で雑音を考慮する組み合わせは、大きな性能の向上を提供することが分かった。]
[0059] 図2は、図1の聴覚装置の較正フェーズの動作方法のためのフローチャートの例を図示する。] 図1 図2
[0060] 聴覚装置は、較正プロセッサ103に結合されるテスト信号源101を有し、較正プロセッサ103は更に、具体的な例においてインイヤヘッドホンを有するオーディオ出力部105に結合される。較正プロセッサ103は、具体的には、テスト信号源101からテスト信号を取り出し、オーディオ出力部105を介してユーザにそれを提示するように構成される。]
[0061] 従って、較正フェーズは、ステップ201において開始し、ステップ201において、複数のテストオーディオ信号が、テスト信号源101から較正プロセッサ103に提供される。各々のテストオーディオ信号は、信号成分及び雑音成分の両方を含み、信号成分は、所望の信号に対応する。具体的な例において、信号成分は、例えば1又は複数の話された言葉、数字又はさまざまな文のシーケンスのようなスピーチ信号である。雑音成分は、例えば、ホワイトノイズ、非特異的なオーディオ背景雑音、優勢に干渉するオーディオソース(例えば第2の話される音声等)に対応しうる。具体的な例において、複数のテストオーディオ信号は、例えば混雑した部屋でスピーチを聞く場合のように、ユーザが通常の動作中に遭遇する見込みのある複数の異なる典型的な使用オーディオ環境を表現する。]
[0062] ある実施形態において、テスト信号源101は、さまざまな異なるテスト信号の記憶されたバージョンを含む。従って、テスト信号源101は、テスト信号が記憶される信号記憶部を有しうる。例えば、多くのテスト信号は、(異なる雑音特性をもつ)さまざまな異なるオーディオ環境において、適切な話された文を記録することによって、生成されることができる。結果として得られる信号は、デジタル化され、例えば聴覚装置を製造する間にテスト信号源101の信号記憶部に記憶されることができる。従って、ステップ201は、単に、テスト信号が信号記憶部から取り出され、較正プロセッサ103に供給されることに対応しうる。]
[0063] 他の実施形態において、より柔軟性があり、複雑なアプローチが、使用されることができる。特に、図3は、本発明のある実施形態によるテスト信号源101の例を示している。] 図3
[0064] この例において、テスト信号源101は、結果として得られるテスト信号の所望の成分に対応する複数の信号が記憶される信号成分記憶部301を有する。例えば、信号成分記憶部301は、複数のスピーチ信号(例えば話された文又は数字のシーケンス)、複数の純音信号を記憶することができる。]
[0065] 信号成分記憶部301は、信号成分記憶部301から取り出される信号成分信号を処理するように構成される信号成分プロセッサ303に結合される。この処理は、信号成分記憶部301から取り出される(複数の)信号成分のボリュームレベルをイコライズし、フィルタリングし、圧縮し及び/又は調整すること含むことができる。従って、信号成分記憶部301は、所望の特性を有する信号成分のレンジを提供するために、信号成分プロセッサ303によって動的に変更され適応されることが可能な信号成分の組を提供する。]
[0066] テスト信号源101は更に、結果として得られるテスト信号の雑音成分に対応する複数の信号が記憶される雑音成分記憶部305を有する。例えば、雑音成分記憶部305は、ホワイトノイズ、混雑した部屋の典型的な周囲雑音、単一の干渉する話者等に対応する記憶された信号を含みうる。]
[0067] 雑音成分記憶部305は、雑音成分記憶部305から取り出される雑音成分信号を処理するように構成される雑音成分プロセッサ307に結合される。この処理は、雑音成分記憶部305から取り出される(複数の)雑音成分のボリュームレベルをイコライズし、フィルタリングし、圧縮し及び/又は調整すること含むことができる。従って、雑音成分記憶部305は、所望の特性を有する雑音成分のレンジを提供するために、雑音成分プロセッサ307によって動的に変更され適応されることが可能な雑音成分の組を提供する。]
[0068] 信号成分プロセッサ303及び雑音成分プロセッサ307は、コンバイナ309に結合され、コンバイナ309は、具体的な例において、信号成分プロセッサ303からの信号成分及び雑音成分プロセッサ307からの雑音成分を加算することによって、テスト信号を生成するように構成される。]
[0069] 従って、テスト信号源は、信号成分及び雑音成分の両方が所望の特性を有するテスト信号の組を生成することができる。記述されるアプローチは、例えば、較正信号を記憶するために必要とされる記憶域を低減することができる。例えば、話される文ごとにただ1つの信号が、記憶されればよく、文のさまざまな異なるバリエーションがユーザに提示されることができることを可能にする(例えば、ハイパスフィルタリングされたバージョン及びローパスフィルタリングされたバージョンの両方が、信号成分プロセッサ303によって生成されることができる)。更に、文は、それぞれ異なるタイプの雑音を伴ってユーザに提示されることができ、更に、この雑音は、動的に調整されることができる。特に、各信号成分及び各雑音成分のただ1つのバージョンが、記憶されるだけでよい。]
[0070] 更に、アプローチは、生成されたテスト信号の動的な適応を可能にすることができる。例えば、受け取られたユーザフィードバックに基づいて、テスト信号は、現在ユーザに特に適している特性に関して生成されることができる。例えば、特定のユーザが、優勢に干渉する話者がいる場合にスピーチを理解することの特定の困難さをもたらす聴覚障害を有することが分かった場合、干渉する話者に対応する雑音成分を有し、異なるパラメータ設定をもつ複数のテスト信号が、生成され、ユーザに提示されることができる。これは、ユーザの特定の聴覚障害のより正確な決定を可能にすることができる。]
[0071] こうして、ステップ201において提供されるテスト信号は、クリーンなテスト信号に対応するだけでなく、複数の異なる雑音成分も含み、それによって、見込みのある使用状況を反映するテストオーディオ信号のレンジがユーザに提示されることを可能にする。ユーザの特定の特性は、一般に、所望の信号の特性にだけ依存するのではなく、全体のオーディオ環境の特性に大きく依存するので、これは、ユーザの特定の嗜好及び特性がより正確に決定されることを可能にする。]
[0072] ステップ201のあとにステップ203が続き、ステップ203において、生成されたテスト信号が、ユーザに提示される。具体的には、較正プロセッサ103は、オーディオ出力回路105にテスト信号を逐次に供給し、その結果、テスト信号は、インイヤヘッドホンを介して出力される。]
[0073] 聴覚装置は、ユーザ嗜好プロセッサ109に結合されるユーザフィードバックプロセッサ107を有し、ユーザ嗜好プロセッサ109には、較正コントローラ103もまた結合される。ユーザフィードバックプロセッサ107は、ユーザから、提示されたテスト信号に関するフィードバックを得るために、ユーザとインタフェースする機能を有する。具体的には、ユーザフィードバックプロセッサ107は、(例えばパーソナルコンピュータを介して)キーボード及びディスプレイとインタフェースする機能を有することができ、従って、ユーザからの適当なフィードバックをリクエストし、受け取ることができる。]
[0074] 特定の例として、ユーザフィードバックプロセッサ107は、テスト信号が再生されるというテキストを出力することができる。次に、較正コントローラ103は、2つのテスト信号をユーザに逐次に提示することを続けることができる。次に、ユーザフィードバックプロセッサ107は、2つの信号のうちどちらが好ましいかを選択するようにユーザにリクエストするテキストを出力することができる。これに応じて、ユーザは、キーボード上で応答を入力し、この応答は、ユーザフィードバックプロセッサ107によって受け取られ、ユーザ嗜好プロセッサ109に供給される。このプロセスは、複数のテスト信号について繰り返されることができる。]
[0075] ユーザ入出力機能は、較正フェーズの間、接続されるだけでもよいことが分かるであろう。例えば、ユーザフィードバックプロセッサ107は、較正プロセスの間、聴覚装置をコンピュータに結合するためのインタフェース機能を有することができる。]
[0076] こうして、ステップ203のあとにステップ205が続き、ステップ205において、複数のテストオーディオ信号に関するユーザ嗜好フィードバックが、ユーザから受け取られる。ステップ205のあとにステップ207が続き、ステップ207において、ユーザ嗜好プロセッサ109が、ユーザ嗜好フィードバック及び雑音成分に関する雑音パラメータに応じて、当該ユーザ用の個人化パラメータを生成する。従って、個人化パラメータは、ユーザフィードバックに応じて決定されるだけでなく、テスト信号の雑音特性にも依存して決定される。従って、個人化パラメータは、ユーザ嗜好を表現するだけでなく、ユーザ嗜好がどのように雑音に依存するかを具体的に表現する。]
[0077] 一例として、個人化パラメータは、スピーチ強調プロセスの好適な設定を含むことができる。例えば、スピーチ信号のハイパスフィルタリングは、多くの実施形態において、ユーザにとってのスピーチの了解度(理解)を改善することができると同時に、環境の認識を低減し及び/又は信号を歪める。]
[0078] スピーチを理解するユーザの能力に依存して、ハイパスフィルタリングの量は、ユーザの特定の嗜好が満たされるように相応に調整されることができる。しかしながら、ハイパスフィルタリングの好適な値は、経験される雑音条件にかなり依存することが分かった。この例において、それぞれ異なる信号対雑音比についての好適なハイパスフィルタリングを示す個人化パラメータが、決定されることができる。例えば、聴覚装置は、固定の信号対雑音比及び変化するハイパスフィルタリングを有する複数のテスト信号を、ユーザに提供し、ユーザに、好適な信号を選択するよう求める。次に、対応するハイパスフィルタの設定が、当該雑音レベルに関する個人化パラメータ値として記憶される。聴覚装置は、さまざまな異なる雑音レベルについてテスト信号を提示し、好適なハイパスフィルタの設定を記録することに進む。それゆえ、信号対雑音比の関数としての個人化された好適なハイパスフィルタリングが、決定されることができる。]
[0079] 従って、較正フェーズに基づいて、それぞれ異なる雑音状況においてどの処理パラメータが好まれるかを記述するルックアップテーブル又はアルゴリズムが、決定されることができる。]
[0080] 通常の動作中、聴覚装置は、マイクロホンからリアルタイムオーディオ信号を受け取り、ユーザにそれを提示する前にこれを処理するように構成される。処理は、具体的には、ユーザの聴覚障害を補償するために、提示されるオーディオ信号を改善することが意図される。この例において、聴覚装置によって実施される処理は、ユーザにあわせて具体的にカスタマイズされる信号をユーザに提供するために、個人化パラメータに応じて適応される。具体的には、処理は、特定のユーザの聴覚障害の個別の特性を補償することに努めることができる。]
[0081] 従って、聴覚装置は、現在オーディオ環境を捕捉する1又は複数のマイクロホンを有する(又はそれと結合される)オーディオ入力部111を備える。結果として得られる(複数の)オーディオ信号は、オーディオプロセッサ113に供給され、オーディオプロセッサ113は更に、オーディオ出力部105に結合される。オーディオプロセッサ113は、ユーザに提示するためにオーディオ出力部105にそれを供給する前に、入力オーディオ信号を処理する。]
[0082] 聴覚装置は更に、ユーザ嗜好プロセッサ109、オーディオプロセッサ113及びオーディオ入力部111に結合される適応コントローラ115を有する。オーディオコントローラ115は、具体的には、その雑音特性を決定するために、現在受け取られたリアルタイム入力オーディオ信号を評価する。オーディオコントローラ115は、ユーザ嗜好プロセッサ109から個人化パラメータの対応する値を取り出し、それに応じて、処理の適当な適応を決定する。オーディオコントローラ115は、マイクロホン信号の処理を相応に実施するために、オーディオプロセッサ113を制御する。従って、オーディオプロセッサ113によって実施される(複数の)マイクロホン信号の処理は、較正フェーズの間に生成された個人化パラメータに依存する。結果として得られる処理された信号は、オーディオ出力部105によってユーザに提示される。]
[0083] 図4は、図1の聴覚装置の通常の動作/適応フェーズの例を示している。このフェーズは、聴覚装置の通常の使用に対応し、すなわちリアルタイム信号がマイクロホンによって拾われ、聴覚装置によって処理され、インイヤヘッドホンを介してユーザに出力される使用状況に対応する。] 図1 図4
[0084] 方法はステップ401において始まり、ステップ401において、入力オーディオ信号が、オーディオ入力部111によって生成され、オーディオプロセッサ113及び適応コントローラ115に供給される。]
[0085] ステップ401のあとにステップ403が続き、ステップ403において、適応コントローラ115は、入力オーディオ信号に関する雑音特性を決定することを続ける。雑音特性は、具体的には、入力オーディオ信号の雑音特性の標示でありえ、入力オーディオ信号の雑音特性は、それぞれ異なる個人化パラメータ値が決定される雑音特性に対応する。]
[0086] 例えば、雑音特性は、現在の雑音レベルの絶対的な又は相対的な標示及び/又は経験される雑音のタイプの標示でありうる。例えば、雑音特性は、雑音信号レベル、信号対雑音比、雑音がホワイトノイズに似ているかどうか、周囲部屋雑音又は単一干渉雑音、雑音の主成分の空間方向等を示す値でありうる。]
[0087] ステップ403のあとにステップ405が続き、ステップ405において、適応プロセッサ115は、雑音特性に応じて個人化パラメータの値を決定することを続ける。一例として、雑音パラメータは、雑音特性に依存する処理のそれぞれ異なる好適な設定を示すことができ、適応プロセッサ115は、入力オーディオ信号に関して決定された値と最も密接に合致する雑音特性の値について記憶されている設定を選択することができる。例えば、個人化パラメータが、信号対雑音比に依存するそれぞれ異なるハイパスフィルタ設定を含む状況において、適応プロセッサ115は、入力オーディオ信号について信号対雑音比を評価し、これに最も近い信号対雑音比について記憶されたハイパスフィルタ設定を取り出すことができる。]
[0088] ステップ405のあとにステップ407が続き、ステップ407において、オーディオ信号の処理は、個人化パラメータの決定された値に応じて適応される。例えば、オーディオプロセッサ113による入力オーディオ信号のハイパスフィルタリングは、ステップ405において決定されるフィルタ設定に適応される。]
[0089] ステップ407のあとにステップ409が続き、ステップ409において、入力オーディオ信号が、オーディオプロセッサ113によって処理される。具体的には、入力オーディオ信号は、ハイパスフィルタリングされる。]
[0090] ステップ409のあとにステップ411が続き、結果として得られた信号が、ユーザに提示するために、オーディオ出力部105に供給される。従って、マイクロホンによって捕捉されたオーディオ信号のハイパスフィルタリングされたバージョンが、インイヤヘッドホンによって出力される。]
[0091] ステップ411の後、方法は、例えばステップ401に戻ることができ、プロセスが繰り返されることができる。例えば、入力オーディオ信号は、例えば20msの持続時間のセグメントに分割されることができ、図4に関して記述されるプロセスが、各個別のセグメントについて実施されることができる。] 図4
[0092] 記述されたアプローチは、個人的な及び個別の嗜好及び特性の効率的且つ正確な決定を可能にし、嗜好及び特性は、これらの嗜好及び特性を反映する出力信号を生成するために、信号の処理を自動的に適応させるために使用されることができる。大幅に改善された性能が、較正フェーズ及び動作フェーズの両方のフェーズ中に雑音特性を考慮することによって達成される。]
[0093] 個人化パラメータは、それぞれ異なる実施形態において、それぞれ異なるユーザ嗜好及び特性の標示を含むことができ、それぞれ異なる信号処理が、それぞれ異なる実施形態において適応されうることが分かるであろう。以下において、幾つかの具体的な例が、更に詳しく記述される。]
[0094] ある実施形態において、個人化パラメータは、信号対雑音関係に対する嗜好の標示を含むことができる。特に、個人化パラメータは、ユーザにとって許容できるスピーチ了解度のために必要な信号対雑音関係の標示を含むことができる。]
[0095] 個人化パラメータ決定は、例えば、較正プロセッサ103が、話された文を含み、異なる雑音レベルの雑音を有する複数のテスト信号を提示することを含む。ユーザ嗜好フィードバックは、これらのテスト信号のうちどれがユーザに理解可能であるか、及びどのテスト信号がスピーチが理解されることを可能にしなかったか、を示すことができる。この嗜好フィードバックに基づいて、ユーザ嗜好プロセッサ109は、スピーチがこのユーザに理解可能であるために要求される最小限の必要な信号対雑音比を決定することができる。特に、聴覚障害のあるユーザの場合、このパラメータはユーザ間で広く変化することが分かった。]
[0096] 例において、適応プロセッサ115は、入力オーディオ信号の信号対雑音比を決定するように構成される。オーディオ信号の信号対雑音比を決定するための多くの異なるアルゴリズム及び技法が、当業者に知られていることが分かるであろう。決定された信号対雑音比は、最小限の必要な信号対雑音比と比較され、それに応じてオーディオプロセッサ113の処理が適応される。例えば、決定された信号対雑音比が必要な信号対雑音比を上回る場合、雑音抑制はオーディオ入力信号に適用されないが、決定された信号対雑音比が必要な信号対雑音比を下回る場合、雑音抑制技法が適用される。雑音抑制のレベルは更に、必要な信号対雑音比と比較した、決定された信号対雑音比のレベルに依存しうる。]
[0097] 個人化パラメータの雑音依存が信号対雑音比要求に本質的に組み込まれることが分かるであろう。特に、最小の信号対雑音比要求は、現在雑音レベルに依存する最小信号レベル要求に対応する。]
[0098] ある実施形態において、個人化パラメータは、雑音分布に依存しうる。この雑音分布は、例えば空間ドメイン、時間ドメイン又は周波数ドメインの分布でありうる。]
[0099] 例えば、個人化パラメータは、経験される雑音が連続する一定の雑音であるかどうか、(例えばバックするときにトラックから放出されるアラーム音からの)周期的に繰り返される雑音であるかどうか等の標示を含むことができる。入力オーディオ信号の処理は、例えば、連続する雑音がある場合に連続する雑音抑制アルゴリズムを適用し、周期的に繰り返す雑音信号がある場合に周期的な雑音抑制アルゴリズムを適用することによって、相応に適応されることができる。]
[0100] 別の例として、個人化パラメータは、雑音が平坦な周波数スペクトルを有することによって特徴付けられるかどうか、小さい周波数帯域に集中されているかどうか、及び/又は低周波数雑音又は高周波数雑音を支配的に有するかどうか、の標示を含むことができる。オーディオ入力信号の処理は、例えば雑音特性に依存するノッチフィルタ、ハイパスフィルタ又はローパスフィルタを適用することによって、相応に適応されることができる。]
[0101] 更に他の例として、個人化パラメータは、聴覚装置からそれぞれ異なる角度方向の雑音レベルの標示を含むことができる。例えば、個人化パラメータは、雑音が主に単一の優勢な干渉信号に対応する単一方向からのものであるかどうか、雑音が拡散した背景雑音に対応する全方向に相対的に均等に分布するものであるかどうか等を示すことができる。]
[0102] オーディオ入力信号の処理は、例えば雑音が、拡散した周囲雑音又は単一干渉者に対応するかどうかに依存して、適当な雑音抑制アルゴリズムを選択することによって、相応に適応されることができる。具体的な例として、オーディオビームフォーミングが、空間分布に従って適応されることができる。]
[0103] このようなアプローチは、オーディオ入力信号の処理を適応させる際に、ユーザの嗜好及び特性が考慮されることを可能にする。ユーザ(及び特に聴覚障害のあるユーザ)は、このような分布に依存して非常に異なる感度を有しうるので、これは大きな改善を提供することができる。例えば、あるユーザは、特定の周波数帯域に特定の困難を有することがあり、高周波数又は低周波数の信号に特に無感覚でありえ、又はある方向において低減された感度を有する(例えば聴覚障害により片方の耳では他方の耳より劣る)ことがある等である。更に、このような特性は、雑音環境自体に大きく依存しうる。]
[0104] ある実施形態において、個人化パラメータは、信号歪みに対する嗜好の標示を含むことができる。例えば、個人化パラメータは、背景雑音レベルに依存して入力信号に適用されうる最大歪みの標示を含むことができる。例えば、雑音レベルが高い場合、ユーザは高い歪みを受け入れることができる。その理由は、これが、知覚される品質に著しく影響を与える見込みがなく、又はこれが、信号を理解できるようにするのに十分に強い雑音抑圧の許容できる代償と考えられることができるからであり、低い雑音レベルでは、このような歪みは、許容できないことがある。]
[0105] ある実施形態において、個人化パラメータは、スピーチ了解度パラメータに対する嗜好の標示を含むことができる。スピーチ了解度パラメータは、例えばスピーチ強調アルゴリズムの好適な設定又は好適な特性の標示でありうる。別の例として、スピーチ了解度パラメータは、結果として得られる処理されたオーディオ信号の所望の特性を反映することができ、その特性は、スピーチの了解度を示す。例えば、スピーチ了解度パラメータは、提供されたスピーチの高周波数コンテントと低周波数コンテントとの間の所望の分布を含みうる。]
[0106] 従って、記述されるアプローチは、ユーザがどれくらい良好にスピーチを理解することができるかを決定するために使用されることができる。較正フェーズは、スピーチ了解度テスト(例えば、どのテスト信号がよりよく理解できるかをたずねるいわゆる電話テスト又は比較テスト)を含むことができ、結果は、オーディオ入力信号の処理の設定を決定するために使用されることができる。例えば、ユーザが、重度の了解度問題を有する場合、平均ユーザと比較して、より多くの分離が、このユーザに対して可能にされうる。]
[0107] ある実施形態において、個人化パラメータは、信号歪み及び雑音抑制パラメータのトレードオフに対する嗜好の標示を含むことができる。]
[0108] 一般に、雑音抑制アルゴリズムは、雑音成分が低減されるように信号を処理することによって、雑音中のスピーチを知覚するための能力を改善する。しかしながら、このような処理は、一般に、所望のスピーチ信号自体の知覚されるオーディオ品質を低下させることによって、スピーチ信号に歪みを導入する。例えば、かなり低い周波数の雑音がある環境において、単純な雑音抑制アルゴリズムは、オーディオ信号をハイパスフィルタリングすることにある。しかしながら、このようなハイパスフィルタリングは雑音を低減することができるが、それは所望のスピーチ信号もまた歪めることがあり、それによってその品質を低下させる。]
[0109] 従って、ある実施形態において、それぞれ異なる雑音環境について歪み/信号品質及び雑音抑制の間の好適なトレードオフが、較正フェーズの間に決定され、通常の動作の間、入力オーディオ信号の処理を適応させるために使用される。例えば、ユーザは、それぞれ異なるトレードオフを有するテスト信号の間の選択を行うことが要求され、好適なトレードオフに対応する設定(例えば好適なテスト信号と関連するフィルタ特性)が、記憶される。動作中、現在の雑音特性が、評価され、それと関連するフィルタ特性が、オーディオプロセッサ113によって取り出され、使用される。]
[0110] この例において、ユーザの個人的な特性及び嗜好に依存して、オーディオ処理パラメータが、現在の雑音特性に依存して、それぞれ異なる重みによる雑音及び歪み特性の共同的な最適化のために選択される。例えば、雑音抑制を導入することが望ましい可能性があるが、これは歪みを導入するので、これらのファクタの間のトレードオフがある。このトレードオフは、高度に個人的であり、雑音依存であり、記述されるアプローチが、好適なトレードオフが決定され、適用されることを可能にする。]
[0111] 上述の例において、オーディオプロセッサ113は、個人化パラメータに応じて、スピーチ強調処理を適応させることができる。例えば、所与の雑音状況に対して決定された個人的な設定を有する場合、聴覚装置は、例えば、経験される雑音のレベル、その性質(例えばそれが音声、音楽又は道路雑音であるか)、その周波数コンテント、その空間属性等の要素に依存して、スピーチ強調処理の個人化された最適化を提供するためにこれらのパラメータを使用する。]
[0112] ある実施形態において、オーディオプロセッサ113は、個人化パラメータに応じて、オーディオ信号のイコライゼーションを特に適応させることができる。例えば、前述したように、ハイパスフィルタリングは、個人化パラメータ(例えばカットオフ周波数、減衰の程度等)に依存して、適応されることができる。他の実施形態において、より複雑なイコライゼーションが実施されることができ、例えばより複雑なフィルタリングが適用されることができることが分かるであろう。例えば、周波数の関数としてユーザのオーディオ感度を反映するフィルタリングが、実施されることができる。]
[0113] ある実施形態において、オーディオプロセッサ113は、個人化パラメータに応じて、オーディオ信号の圧縮を適応させることができる。圧縮によって、オーディオ信号は、ユーザの聴覚閾値とユーザの不快な音量レベルとの間のレンジであるユーザの動的なレンジに置かれる。言い換えると、信号は、知覚されるに十分に大きいが、不快であるほど大きくないようにされる。これを行うことが可能であるように、増幅/減衰の量は、入力信号のレベルに依存する。更に、圧縮もまた、個人化パラメータに依存して適応されることができる。例えば、ユーザの動的なレンジは、ユーザの個人的な嗜好に基づいて制限されることあり、それぞれ異なる周波数レンジ及び/又は異なる雑音信号によって異なることがある。]
[0114] ある実施形態において、オーディオプロセッサ113は、個人化パラメータに応じて、オーディオ信号に関する雑音抑制プロセスを適応させることができる。例えば、雑音抑制の程度又は雑音抑制のタイプ(例えばハイパスフィルタリング、スペクトル減算)が、個人化パラメータに基づいて、適応されることができる。]
[0115] ある実施形態において、オーディオプロセッサ113は、個人化パラメータに応じて、オーディオ信号に関するオーディオビームフォーミングを適応させることができる。オーディオビームフォーミングは、ユーザ経験を改善するために、例えば補聴器に導入されている。例えば、オーディオ処理アルゴリズムは、所望の音源と干渉音源との間の改善された信号対雑音比を提供するために使用されており、その結果、よりはっきりした、よりよく知覚できる信号がユーザに提供される。特に、2以上のマイクロホンを含む補聴器が開発されており、マイクロホンのオーディオ信号は、マイクロホン装置の指向性を提供するように動的に組み合わせられる。このような指向性は、ビームフォーミングアルゴリズムによって達成されることができる。]
[0116] 従って、ある実施形態において、オーディオ入力部111は、複数のマイクロホン信号を生成する複数のマイクロホンを有することができる。例えば、オーディオ入力部は、エンドファイア構成(ユーザによって装着されるとき、前面の方へラインに沿って取り付けられる)にて取り付けられる2つの無指向性マイクロホンを有することができる。無指向性マイクロホンが、音源と基準方向との間の角度の関数としての感度バリエーションが所与の値より小さいマイクロホンであることが分かるであろう。]
[0117] 従って、オーディオプロセッサ113は、当業者に知られていようにビーム形成される感度パターンに対応する出力信号を生成するように、複数のマイクロホンからの信号を組み合わせるビームフォーミングアルゴリズムを実行することができる。適切なビームフォーミングアルゴリズムの例は、例えばG. W. Elkoによる「Superdirectional microphone arrays」(ch.10, pp. 181-238, in Acoustic Signal Processing for Telecommunications, S. L. Gay and J. Benesty, Eds. Kluwer Academic Publishers, 2000)に記述されている。]
[0118] 図1の聴覚装置において、ビームフォーミング設定は、個人化パラメータに依存する。例えば、生成されるオーディオビームのビーム幅は、ユーザの個人的な嗜好又は特性に依存することができる。具体的な例として、適応プロセス115は、所望の信号対雑音要求をオーディオプロセッサ113に提供することができる。生成されたオーディオ信号(以下、ビームフォーミング)についての現在の信号対雑音比が、所望の信号対雑音比よりかなり高い場合、ビーム幅が増大されることができ、それによって、より多くの周囲雑音がユーザに提供されることを可能にする。しかしながら、現在の信号対雑音比が、所望の信号対雑音比を下回る(又は、例えばその予め決められたマージンの範囲内である)場合、オーディオプロセッサ113は、ビーム幅を狭めることができ、それによって周囲雑音を排除し、所望の信号源に焦点を合わせることができる。] 図1
[0119] アプローチは、例えば、ユーザに提供される周囲オーディオ環境雑音の量を、このユーザの特定の嗜好及び特性にあわせて自動的に適応させることを可能にすることができる。例えば、ユーザの特定の特性が、所望の信号を分離するために空間ビームフォーミングが適用されることを必要としない限り、アプローチは、ユーザが、全体のオーディオ環境を表現する信号を提供されることを可能にすることができる。]
[0120] 具体的な例として、個人化パラメータは、スピーチ了解度及びオーディオビーム幅のトレードオフに対する嗜好の標示を含むことができる。一般に、スピーチ了解度は、オーディオビーム幅を狭めることによって改善されることができ、その理由は、これが、所望の信号源(例えば話者)の改善された分離を提供するからである。しかしながら、このような狭小化は、周囲音の量をも低減し、それによって環境の認識を低下させる。]
[0121] さまざまな異なる較正信号がそれぞれ異なる実施形態において使用されうることが分かるであろう。具体的な例において、話された文を含むオーディオ信号及び話された数字のシーケンスを含むオーディオ信号のうち少なくとも1つが、使用される。単一の単語に基づくテスト信号を使用することとは対照的に、これは、大幅に改善された性能を与えることができる。特に、人間のスピーチ知覚は、個別の単語を区別する能力がないことによってのみ制御されるのではなく、全体の文を解析する頭脳を含む。例えば、幾つかの個別の単語が明確に知覚されない場合であっても、人は、通常、文を正しく知覚することが可能である。文構造全体に基づくテスト信号を使用することによって、このような一貫性のある処理を実施するための個人ユーザの能力が、更に特徴付けられることができ、それに応じて、聴覚装置の動作が、適応されることができる。]
[0122] ある実施形態において、テストオーディオ信号のいくつか又は全ては、空間バイノーラルオーディオ信号でありうる。このようなアプローチは、テスト信号が、ステレオ/バイノーラルヘッドホン装置を使用してユーザに提示される任意の状況において、適用可能であり、例えば補聴器が各々の耳用のヘッドホンを有する状況において、特に有利でありえる。]
[0123] 具体的には、通常のステレオ/バイノーラルのヘッドホン装置の場合、音は、ユーザの頭部の内部の位置から生じるように知覚される。これは当然ながら高度に人工的であり、従って、ヘッドホンアプリケーションの3D音源位置決めのための技法が、開発されている。例えば、モバイルゲームにおける音楽再生及び音響効果は、「頭部の外側」3D効果を効果的に生成して、3Dで位置付けられる場合のコンシューマ経験に重要な価値を付加することができる。]
[0124] 従って、人間の耳がセンシティブである特定の指向性情報を含むバイノーラルオーディオ信号を記録し再生するための技法が、開発されている。バイノーラル記録は、一般に、ダミーの人間頭部に取り付けられる2つのマイクロホンを使用して行われ、従って、記録される音は、人間の耳によって捕らえられる音に対応し、頭部及び耳の形状による任意の影響を含む。バイノーラル記録の再生が、一般にヘッドセット又はヘッドホン用であることが意図され、ステレオ録音が、一般に、スピーカによる再生のために行われるという点において、バイノーラル記録は、ステレオ(すなわちステレオフォニック)記録とは異なる。バイノーラル記録は、ただ2つのチャネルを使用してすべての空間情報の再生を可能にするが、ステレオ録音は、同じ空間知覚を提供しない。標準的なデュアルチャネル(ステレオフォニック)又は複数チャネル(例えば5.1)記録が、知覚的な伝達関数の組によって各々の規則的な信号を畳み込むことによって、バイノーラル記録に変換されることができる。このような知覚的な伝達関数は、人間の頭部及び可能性として他のオブジェクトの、信号に対する影響をモデル化する。空間的な知覚伝達関数のよく知られているタイプは、いわゆる頭部関連の伝達関数(HRTF)である。部屋の壁、天井及び床によって引き起こされる反射をも考慮する空間的な知覚伝達関数の代替のタイプは、バイノーラルルームインパルス応答(BRIR)である。]
[0125] 具体的な例において、これらの技法は、空間的なテストオーディオ信号を生成するために使用される。例えば、信号成分は、ユーザのすぐ前の位置に対応するHRTFによって処理されることができる。単一の優勢な干渉者に対応する雑音成分は、所与の角度の位置に対応するHRTFによって処理されることができ、2つの信号成分は、ユーザのすぐ前の所望のオーディオソース及び選択された角度にある優勢な干渉者に対応するテスト信号を提供するために、互いに加算されることができる。例えば、さまざまな異なる角度にいる干渉者に対応するさまざまな異なるテスト信号が、生成されることができる。ユーザ嗜好の値に基づいて、さまざまな異なる角度における干渉に対する特定のユーザの感度又は分離のユーザ許容を示す個人化パラメータが、相応に決定されることができ、オーディオ入力信号の処理を適応させるために使用されることができる。]
[0126] 較正の間の空間的にリアリスティックな雑音(及び場合によってはスピーチ)信号の使用は、大幅に改善されたユーザの特徴付け及び適応を提供し、その結果、聴覚装置の改善された性能をもたらすことができる。特に、空間的にリアリスティックな雑音及びスピーチ信号は、人の能力が、較正フェーズの間に評価される「カクテルパーティ」効果(所与の方向から来る信号を空間的に識別し、より注意深く選択的に聞く脳の能力)を適用することを可能にする。従って、較正プロセスは、実際の使用状況及びオーディオ知覚により密接に似ており、それによって改善された特徴付け及び適応をもたらす。]
[0127] 上述の説明は、明確さのために、さまざまな異なる機能ユニット及びプロセッサに関して本発明の実施形態を記述したものであることが分かるであろう。しかしながら、それぞれ異なる機能ユニット又はプロセッサの間の機能の任意の適切な分散が、本発明から逸脱することなく使用されることができる。例えば、別個のプロセッサ又はコントローラによって実施されるように示されている機能は、同じプロセッサ又はコントローラによって実施されることができる。それゆえ、特定の機能ユニットに対する言及は、厳密な論理的又は物理的な構造又は機構を示すのではなく、記述された機能を提供する適切な手段に対する言及とみなされるべきである。]
[0128] 本発明は、ハードウェア、ソフトウェア、ファームウェア又はこれらの任意の組み合わせを含むこれらの任意の適切な形式において実現されることができる。本発明は、任意には、1又は複数のデータプロセッサ及び/又はデジタル信号プロセッサ上で走るコンピュータソフトウェアとして少なくとも部分的に実現されることができる。本発明の実施形態の構成要素及びコンポーネントは、任意の適切なやり方で、物理的に、機能的に及び論理的に実現されることができる。事実、機能は、単一ユニットにおいて、複数のユニットにおいて、又は他の機能的なユニットの一部として、実現されることができる。従って、本発明は、単一ユニットにおいて実現されることができ、又は異なるユニットとプロセッサとの間で物理的且つ機能的に分散されることができる。]
[0129] 本発明は、ある実施形態に関連して記述されたが、本発明が、ここに示される特定の形式に制限されることを意図しない。むしろ、本発明の範囲は、添付の請求項のみによって制限される。加えて、フィーチャは、具体的な実施形態に関連して記述されるようにみえるが、当業者であれば、記述された実施形態のさまざまなフィーチャが、本発明により組み合わせられることができることが分かるであろう。請求項において、含む、有するなる語は、他の構成要素又はステップの存在を除外しない。]
[0130] 更に、複数の手段、構成要素又は方法ステップは、個別に列挙されているが、例えば単一のユニット又はプロセッサによって実現されることができる。加えて、個別のフィーチャが、それぞれ異なる請求項に含まれうるが、これらは、可能性として有利に組み合わせられることができ、それぞれ異なる請求項における包含は、フィーチャの組み合わせが実現可能でなく及び/又は有利でないことを示さない。更に、請求項の1つのカテゴリにおけるフィーチャの包含は、このカテゴリへの制限を意味するのではなく、必要に応じて、フィーチャが他の請求項のカテゴリに同等に適用できることを示す。更に、請求項におけるフィーチャの順序は、任意の特定のフィーチャが制御されなければならない特定の順序を示さず、特に、方法の請求項における個別のステップの順序は、ステップがこの順序で実施されなければならないことを示さない。むしろ、ステップは、任意の適切な順序で実施されることができる。更に、単数形での言及は、複数性を除外しない。「a」、「an」、「第1」、「第2」等は、複数性を排除しない。請求項における参照符号は、明確な例示として単に提供されており、いかなる形であれ請求項の範囲を制限するものとして解釈されるべきではない。]
权利要求:

請求項1
各々のテストオーディオ信号が信号成分及び雑音成分を含む複数のテストオーディオ信号を提供する手段と、ユーザに、前記複数のテストオーディオ信号を提示する手段と、前記複数のテストオーディオ信号に関するユーザ嗜好フィードバックを受け取る手段と、前記ユーザ嗜好フィードバックに応じた前記ユーザ用の個人化パラメータ、及び前記複数のテストオーディオ信号のうち少なくとも1つのテストオーディオ信号の雑音成分に関する雑音パラメータを生成する手段と、処理された信号を生成するために、前記個人化パラメータに応じてオーディオ信号を処理する処理手段と、前記ユーザに、前記処理された信号を提示する手段と、を有するオーディオ装置。
請求項2
前記個人化パラメータは、雑音パラメータの関数であり、前記処理手段は、前記オーディオ信号に関する第1の雑音特性を決定し、前記第1の雑音特性に応じて前記個人化パラメータの値を決定し、前記個人化パラメータの値に応じて、前記オーディオ信号の前記処理を適応させる、請求項1に記載のオーディオ装置。
請求項3
前記個人化パラメータは、信号対雑音関係に対する嗜好の標示を含む、請求項1に記載のオーディオ装置。
請求項4
前記信号対雑音関係に対する嗜好は、前記ユーザの許容できるスピーチ了解度のために必要な信号対雑音関係の標示を含む、請求項3に記載のオーディオ装置。
請求項5
前記個人化パラメータは、雑音分布に依存する、請求項1に記載のオーディオ装置。
請求項6
前記個人化パラメータは、信号歪みに対する嗜好の標示を含む、請求項1に記載のオーディオ装置。
請求項7
前記個人化パラメータは、スピーチ了解度パラメータに対する嗜好の標示を含む、請求項1に記載のオーディオ装置。
請求項8
前記個人化パラメータは、信号歪み及び雑音抑制パラメータのトレードオフに対する嗜好の標示を含む、請求項1に記載のオーディオ装置。
請求項9
前記個人化パラメータは、スピーチ了解度及びオーディオビーム幅のトレードオフに対する嗜好の標示を含む、請求項1に記載のオーディオ装置。
請求項10
前記処理手段は、前記個人化パラメータに応じて、前記オーディオ信号のイコライゼーションを適応させる、請求項1に記載のオーディオ装置。
請求項11
前記処理手段は、前記個人化パラメータに応じて、前記オーディオ信号の圧縮を適応させる、請求項1に記載のオーディオ装置。
請求項12
前記処理手段は、前記個人化パラメータに応じて、前記オーディオ信号のスピーチ強調処理を適応させる、請求項1に記載のオーディオ装置。
請求項13
前記処理手段は、前記個人化パラメータに応じて、前記オーディオ信号に関するオーディオビームフォーミングを適応させる、請求項1に記載のオーディオ装置。
請求項14
前記処理手段は、前記個人化パラメータに応じて、前記オーディオ信号の雑音抑制処理を適応させる、請求項1に記載のオーディオ装置。
請求項15
前記テストオーディオ信号は、空間バイノーラルオーディオ信号を含む、請求項1に記載のオーディオ装置。
請求項16
前記テストオーディオ信号は、話された文を含むオーディオ信号及び話された数字のシーケンスを含むオーディオ信号の少なくとも1つを含む、請求項1に記載のオーディオ装置。
請求項17
オーディオ装置の動作方法であって、各々のテストオーディオ信号が信号成分及び雑音成分を含む複数のテストオーディオ信号を提供するステップと、ユーザに、前記複数のテストオーディオ信号を提示するステップと、前記複数のテストオーディオ信号に関するユーザ嗜好フィードバックを受け取るステップと、前記ユーザ嗜好フィードバックに応じた前記ユーザ用の個人化パラメータ、及び前記複数のテストオーディオ信号のうち少なくとも1つのテストオーディオ信号の雑音成分に関する雑音パラメータを生成するステップと、処理された信号を生成するために、前記個人化パラメータに応じてオーディオ信号を処理するステップと、前記ユーザに、前記処理された信号を提示するステップと、を含む方法。
类似技术:
公开号 | 公开日 | 专利标题
US10535334B2|2020-01-14|Method and device for acute sound detection and reproduction
US9858912B2|2018-01-02|Apparatus, method, and computer program for adjustable noise cancellation
US10224016B2|2019-03-05|Voice sensing using multiple microphones
EP3013070B1|2020-02-12|Hearing system
JP5956083B2|2016-07-20|Blocking effect reduction processing with ANR headphones
JP6120980B2|2017-04-26|User interface for ANR headphones with active hearing
US9468401B2|2016-10-18|Method and system for self-managed sound enhancement
JP6121554B2|2017-04-26|Providing the natural surroundings with ANR headphones
US20170223471A1|2017-08-03|Remotely updating a hearing aid profile
JP6055108B2|2016-12-27|Binaural telepresence
JP5894634B2|2016-03-30|個人ごとのhrtfの決定
US9577596B2|2017-02-21|System and method for personalization of an audio equalizer
US8897457B2|2014-11-25|Method and device for acoustic management control of multiple microphones
US9508335B2|2016-11-29|Active noise control and customized audio system
EP2629551B1|2014-11-19|Binaural hearing aid
US8442251B2|2013-05-14|Adaptive feedback cancellation based on inserted and/or intrinsic characteristics and matched retrieval
JP4732706B2|2011-07-27|両耳信号増強システム
Hamacher et al.2005|Signal processing in high-end hearing aids: state of the art, challenges, and future trends
US7564979B2|2009-07-21|Listener specific audio reproduction system
Jeub et al.2010|Model-based dereverberation preserving binaural cues
JP5607136B2|2014-10-15|Stereotaxic hearing aid
EP2005414B1|2012-02-22|A device for and a method of processing data
DE10331956C5|2010-11-18|Hörhilfegerät sowie Verfahren zum Betrieb eines Hörhilfegerätes mit einem Mikrofonsystem, bei dem unterschiedliche Richtcharakteistiken einstellbar sind
CN105872923B|2020-05-12|包括双耳语音可懂度预测器的听力系统
JP5665134B2|2015-02-04|ヒアリングアシスタンス装置
同族专利:
公开号 | 公开日
WO2009104126A1|2009-08-27|
EP2243303A1|2010-10-27|
CN101953176A|2011-01-19|
KR20100119890A|2010-11-11|
US20100329490A1|2010-12-30|
引用文献:
公开号 | 申请日 | 公开日 | 申请人 | 专利标题
JPH0477100A|1990-07-16|1992-03-11|Matsushita Electric Ind Co Ltd|Adjusting device for hearing aid|
JPH08510602A|1993-03-15|1996-11-05|テプホルム・ウント・ウエステルマン・アンパートールスカーブ|遠隔制御可能、特にプログラム可能な補聴器系|
JP2002536931A|1999-02-05|2002-10-29|ヴェーデクス・アクティーセルスカプ|ビーム形成特性を有する補聴器|
JP2003503924A|1999-06-24|2003-01-28|ヴェーデクス・アクティーセルスカプ|補聴器の受音特性の指向性を制御する方法およびその方法を実施するための補聴器|
JP2004527177A|2001-04-18|2004-09-02|ヴェーデクス・アクティーセルスカプ|指向性コントローラおよび補聴器を制御する方法|
JP2002369292A|2001-06-04|2002-12-20|Rion Co Ltd|適応特性補聴器および最適補聴処理特性決定装置|
JP2005537702A|2002-07-12|2005-12-08|ヴェーデクス・アクティーセルスカプ|補聴器および音声の明瞭さを高める方法|
JP2007515830A|2003-09-19|2007-06-14|ヴェーデクス・アクティーセルスカプ|補聴器の受音特性の指向性制御方法および制御可能な指向特性を備える補聴器用の信号処理装置|
JP2005203981A|2004-01-14|2005-07-28|Fujitsu Ltd|音響信号処理装置および音響信号処理方法|
JP2007028609A|2005-07-11|2007-02-01|Siemens Audiologische Technik Gmbh|補聴器及びその調節方法|JP2017510180A|2014-02-27|2017-04-06|ヴェーデクス・アクティーセルスカプ|補聴器システムをフィッティングする方法および補聴器フィッティング・システム|JP4384352B2|1997-10-15|2009-12-16|ベルトーン・エレクトロニクス・コーポレーシヨン|プログラム式補聴器用のニューロファジイに基づく装置|
US6066173A|1998-01-28|2000-05-23|Ethicon, Inc.|Method and apparatus for fixing a graft in a bone tunnel|
DE19813512A1|1998-03-26|1999-06-02|Siemens Audiologische Technik|Hörgerät und Verfahren zur Störgeräuschunterdrückung mit Breitbandsignalanalyse|
US7016504B1|1999-09-21|2006-03-21|Insonus Medical, Inc.|Personal hearing evaluator|
US7206421B1|2000-07-14|2007-04-17|Gn Resound North America Corporation|Hearing system beamformer|
DE10048354A1|2000-09-29|2002-05-08|Siemens Audiologische Technik|Verfahren zum Betrieb eines Hörgerätesystems sowie Hörgerätesystem|
US6944474B2|2001-09-20|2005-09-13|Sound Id|Sound enhancement for mobile phones and other products producing personalized audio for users|
DK1359787T3|2002-04-25|2015-04-20|Gn Resound As|Fitting method and hearing prosthesis which is based on signal to noise ratio loss of data|
US20040033819A1|2002-08-15|2004-02-19|Motorola, Inc.|Personalized audio profile for a subscriber device and method thereof|
US7190795B2|2003-10-08|2007-03-13|Henry Simon|Hearing adjustment appliance for electronic audio equipment|
US7392066B2|2004-06-17|2008-06-24|Ixi Mobile , Ltd.|Volume control system and method for a mobile communication device|
WO2007042043A2|2005-10-14|2007-04-19|Gn Resound A/S|Optimization of hearing aid parameters|
US8666084B2|2007-07-06|2014-03-04|Phonak Ag|Method and arrangement for training hearing system users|US8645137B2|2000-03-16|2014-02-04|Apple Inc.|Fast, language-independent method for user authentication by voice|
US8677377B2|2005-09-08|2014-03-18|Apple Inc.|Method and apparatus for building an intelligent automated assistant|
EP1950684A1|2007-01-29|2008-07-30|Accenture Global Services GmbH|Anonymity measuring device|
US8977255B2|2007-04-03|2015-03-10|Apple Inc.|Method and system for operating a multi-function portable electronic device using voice-activation|
US9330720B2|2008-01-03|2016-05-03|Apple Inc.|Methods and apparatus for altering audio output signals|
US8996376B2|2008-04-05|2015-03-31|Apple Inc.|Intelligent text-to-speech conversion|
US20100030549A1|2008-07-31|2010-02-04|Lee Michael M|Mobile device having human language translation capability with positional feedback|
US8676904B2|2008-10-02|2014-03-18|Apple Inc.|Electronic devices with voice command and contextual data processing capabilities|
US20100088097A1|2008-10-03|2010-04-08|Nokia Corporation|User friendly speaker adaptation for speech recognition|
US8126156B2|2008-12-02|2012-02-28|Hewlett-Packard Development Company, L.P.|Calibrating at least one system microphone|
US8627483B2|2008-12-18|2014-01-07|Accenture Global Services Limited|Data anonymization based on guessing anonymity|
US10241752B2|2011-09-30|2019-03-26|Apple Inc.|Interface for a virtual digital assistant|
US9858925B2|2009-06-05|2018-01-02|Apple Inc.|Using context information to facilitate processing of commands in a virtual assistant|
US9431006B2|2009-07-02|2016-08-30|Apple Inc.|Methods and apparatuses for automatic speech recognition|
US9318108B2|2010-01-18|2016-04-19|Apple Inc.|Intelligent automated assistant|
US10496753B2|2010-01-18|2019-12-03|Apple Inc.|Automatically adapting user interfaces for hands-free interaction|
US10705794B2|2010-01-18|2020-07-07|Apple Inc.|Automatically adapting user interfaces for hands-free interaction|
US10553209B2|2010-01-18|2020-02-04|Apple Inc.|Systems and methods for hands-free notification summaries|
US10276170B2|2010-01-18|2019-04-30|Apple Inc.|Intelligent automated assistant|
US10679605B2|2010-01-18|2020-06-09|Apple Inc.|Hands-free list-reading by intelligent automated assistant|
DE112011100329T5|2010-01-25|2012-10-31|Andrew Peter Nelson Jerram|Vorrichtungen, Verfahren und Systeme für eine Digitalkonversationsmanagementplattform|
US8682667B2|2010-02-25|2014-03-25|Apple Inc.|User profiling for selecting user specific voice input processing information|
CN102196077A|2010-03-03|2011-09-21|英华达(南京)科技有限公司|实时音频校准方法|
US8639516B2|2010-06-04|2014-01-28|Apple Inc.|User-specific noise suppression for voice quality improvements|
US8682910B2|2010-08-03|2014-03-25|Accenture Global Services Limited|Database anonymization for use in testing database-centric applications|
JP5370401B2|2011-03-18|2013-12-18|パナソニック株式会社|補聴装置|
US9262612B2|2011-03-21|2016-02-16|Apple Inc.|Device access using voice authentication|
US10241644B2|2011-06-03|2019-03-26|Apple Inc.|Actionable reminder entries|
US10706373B2|2011-06-03|2020-07-07|Apple Inc.|Performing actions associated with task items that represent tasks to perform|
US10057736B2|2011-06-03|2018-08-21|Apple Inc.|Active transport based notifications|
US8994660B2|2011-08-29|2015-03-31|Apple Inc.|Text correction processing|
JP6069829B2|2011-12-08|2017-02-01|ソニー株式会社|Ear hole mounting type sound collecting device, signal processing device, and sound collecting method|
US9483461B2|2012-03-06|2016-11-01|Apple Inc.|Handling speech synthesis of content for multiple languages|
US9280610B2|2012-05-14|2016-03-08|Apple Inc.|Crowd sourcing information to fulfill user requests|
US9721563B2|2012-06-08|2017-08-01|Apple Inc.|Name recognition system|
KR20130139074A|2012-06-12|2013-12-20|삼성전자주식회사|오디오 신호 처리 방법 및 이를 적용한 오디오 신호 처리 장치|
US9495129B2|2012-06-29|2016-11-15|Apple Inc.|Device, method, and user interface for voice-activated navigation and browsing of a document|
US9031836B2|2012-08-08|2015-05-12|Avaya Inc.|Method and apparatus for automatic communications system intelligibility testing and optimization|
US9161136B2|2012-08-08|2015-10-13|Avaya Inc.|Telecommunications methods and systems providing user specific audio optimization|
US9547647B2|2012-09-19|2017-01-17|Apple Inc.|Voice-based media searching|
WO2014085510A1|2012-11-30|2014-06-05|Dts, Inc.|Method and apparatus for personalized audio virtualization|
AU2014214676A1|2013-02-07|2015-08-27|Apple Inc.|Voice trigger for a digital assistant|
US9794715B2|2013-03-13|2017-10-17|Dts Llc|System and methods for processing stereo audio content|
WO2014197334A2|2013-06-07|2014-12-11|Apple Inc.|System and method for user-specified pronunciation of words for speech synthesis and recognition|
WO2014197336A1|2013-06-07|2014-12-11|Apple Inc.|System and method for detecting errors in interactions with a voice-based digital assistant|
US9582608B2|2013-06-07|2017-02-28|Apple Inc.|Unified ranking with entropy-weighted information for phrase-based semantic auto-completion|
WO2014197335A1|2013-06-08|2014-12-11|Apple Inc.|Interpreting and acting upon commands that involve sharing information with remote devices|
AU2014278592B2|2013-06-09|2017-09-07|Apple Inc.|Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant|
US10176167B2|2013-06-09|2019-01-08|Apple Inc.|System and method for inferring user intent from speech inputs|
US9473852B2|2013-07-12|2016-10-18|Cochlear Limited|Pre-processing of a channelized music signal|
US9715875B2|2014-05-30|2017-07-25|Apple Inc.|Reducing the need for manual start/end-pointing and trigger phrases|
US10170123B2|2014-05-30|2019-01-01|Apple Inc.|Intelligent assistant for home automation|
EP3149728B1|2014-05-30|2019-01-16|Apple Inc.|Multi-command single utterance input method|
US10078631B2|2014-05-30|2018-09-18|Apple Inc.|Entropy-guided text prediction using combined word and character n-gram language models|
US9633004B2|2014-05-30|2017-04-25|Apple Inc.|Better resolution when referencing to concepts|
US9785630B2|2014-05-30|2017-10-10|Apple Inc.|Text prediction using combined word N-gram and unigram language models|
US9842101B2|2014-05-30|2017-12-12|Apple Inc.|Predictive conversion of language input|
US9430463B2|2014-05-30|2016-08-30|Apple Inc.|Exemplar-based natural language processing|
US9760559B2|2014-05-30|2017-09-12|Apple Inc.|Predictive text input|
US9338493B2|2014-06-30|2016-05-10|Apple Inc.|Intelligent automated assistant for TV user interactions|
US10659851B2|2014-06-30|2020-05-19|Apple Inc.|Real-time digital assistant knowledge updates|
CH709862A1|2014-07-09|2016-01-15|Koj Inst Für Gehörtherapie Ag|Hörsystem mit anwenderspezifischer Programmierung.|
US10446141B2|2014-08-28|2019-10-15|Apple Inc.|Automatic speech recognition based on user feedback|
US9818400B2|2014-09-11|2017-11-14|Apple Inc.|Method and apparatus for discovering trending terms in speech requests|
US10789041B2|2014-09-12|2020-09-29|Apple Inc.|Dynamic thresholds for always listening speech trigger|
US9668121B2|2014-09-30|2017-05-30|Apple Inc.|Social reminders|
US10074360B2|2014-09-30|2018-09-11|Apple Inc.|Providing an indication of the suitability of speech recognition|
US10127911B2|2014-09-30|2018-11-13|Apple Inc.|Speaker identification and unsupervised speaker adaptation techniques|
US9646609B2|2014-09-30|2017-05-09|Apple Inc.|Caching apparatus for serving phonetic pronunciations|
US9886432B2|2014-09-30|2018-02-06|Apple Inc.|Parsimonious handling of word inflection via categorical stem + suffix N-gram language models|
US10552013B2|2014-12-02|2020-02-04|Apple Inc.|Data detection|
US9865280B2|2015-03-06|2018-01-09|Apple Inc.|Structured dictation using intelligent automated assistants|
US9721566B2|2015-03-08|2017-08-01|Apple Inc.|Competing devices responding to voice triggers|
US10567477B2|2015-03-08|2020-02-18|Apple Inc.|Virtual assistant continuity|
US9886953B2|2015-03-08|2018-02-06|Apple Inc.|Virtual assistant activation|
US9899019B2|2015-03-18|2018-02-20|Apple Inc.|Systems and methods for structured stem and suffix language models|
US9842105B2|2015-04-16|2017-12-12|Apple Inc.|Parsimonious continuous-space phrase representations for natural language processing|
US10083688B2|2015-05-27|2018-09-25|Apple Inc.|Device voice control for selecting a displayed affordance|
US10127220B2|2015-06-04|2018-11-13|Apple Inc.|Language identification from short strings|
US9578173B2|2015-06-05|2017-02-21|Apple Inc.|Virtual assistant aided communication with 3rd party service in a communication session|
US10101822B2|2015-06-05|2018-10-16|Apple Inc.|Language input correction|
US10186254B2|2015-06-07|2019-01-22|Apple Inc.|Context-based endpoint detection|
US10255907B2|2015-06-07|2019-04-09|Apple Inc.|Automatic accent detection using acoustic models|
US10747498B2|2015-09-08|2020-08-18|Apple Inc.|Zero latency digital assistant|
US10671428B2|2015-09-08|2020-06-02|Apple Inc.|Distributed personal assistant|
US9697820B2|2015-09-24|2017-07-04|Apple Inc.|Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks|
US10366158B2|2015-09-29|2019-07-30|Apple Inc.|Efficient word encoding for recurrent neural network language models|
US10691473B2|2015-11-06|2020-06-23|Apple Inc.|Intelligent automated assistant in a messaging environment|
US10049668B2|2015-12-02|2018-08-14|Apple Inc.|Applying neural network language models to weighted finite state transducers for automatic speech recognition|
US10223066B2|2015-12-23|2019-03-05|Apple Inc.|Proactive assistance based on dialog communication between devices|
US10446143B2|2016-03-14|2019-10-15|Apple Inc.|Identification of voice inputs providing credentials|
US9934775B2|2016-05-26|2018-04-03|Apple Inc.|Unit-selection text-to-speech synthesis based on predicted concatenation parameters|
US9972304B2|2016-06-03|2018-05-15|Apple Inc.|Privacy preserving distributed evaluation framework for embedded personalized systems|
US10249300B2|2016-06-06|2019-04-02|Apple Inc.|Intelligent list reading|
US10049663B2|2016-06-08|2018-08-14|Apple, Inc.|Intelligent automated assistant for media exploration|
DK179588B1|2016-06-09|2019-02-22|Apple Inc.|Intelligent automated assistant in a home environment|
US10586535B2|2016-06-10|2020-03-10|Apple Inc.|Intelligent digital assistant in a multi-tasking environment|
US10067938B2|2016-06-10|2018-09-04|Apple Inc.|Multilingual word prediction|
US10490187B2|2016-06-10|2019-11-26|Apple Inc.|Digital assistant providing automated status report|
US10192552B2|2016-06-10|2019-01-29|Apple Inc.|Digital assistant providing whispered speech|
US10509862B2|2016-06-10|2019-12-17|Apple Inc.|Dynamic phrase expansion of language input|
DK179415B1|2016-06-11|2018-06-14|Apple Inc|Intelligent device arbitration and control|
DK179049B1|2016-06-11|2017-09-18|Apple Inc|Data driven natural language event detection and classification|
DK201670540A1|2016-06-11|2018-01-08|Apple Inc|Application integration with a digital assistant|
DK179343B1|2016-06-11|2018-05-14|Apple Inc|Intelligent task discovery|
US10602284B2|2016-07-18|2020-03-24|Cochlear Limited|Transducer management|
US10474753B2|2016-09-07|2019-11-12|Apple Inc.|Language identification using recurrent neural networks|
US10043516B2|2016-09-23|2018-08-07|Apple Inc.|Intelligent automated assistant|
US10593346B2|2016-12-22|2020-03-17|Apple Inc.|Rank-reduced token representation for automatic speech recognition|
US10417266B2|2017-05-09|2019-09-17|Apple Inc.|Context-aware ranking of intelligent response suggestions|
DK201770383A1|2017-05-09|2018-12-14|Apple Inc.|User interface for correcting recognition errors|
US10726832B2|2017-05-11|2020-07-28|Apple Inc.|Maintaining privacy of personal information|
US10395654B2|2017-05-11|2019-08-27|Apple Inc.|Text normalization based on a data-driven learning network|
DK201770439A1|2017-05-11|2018-12-13|Apple Inc.|Offline personal assistant|
DK179496B1|2017-05-12|2019-01-15|Apple Inc.|USER-SPECIFIC Acoustic Models|
DK179745B1|2017-05-12|2019-05-01|Apple Inc.|SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT|
DK201770429A1|2017-05-12|2018-12-14|Apple Inc.|Low-latency intelligent automated assistant|
DK201770431A1|2017-05-15|2018-12-20|Apple Inc.|Optimizing dialogue policy decisions for digital assistants using implicit feedback|
DK201770432A1|2017-05-15|2018-12-21|Apple Inc.|Hierarchical belief states for digital assistants|
DK179549B1|2017-05-16|2019-02-12|Apple Inc.|Far-field extension for digital assistant services|
US10303715B2|2017-05-16|2019-05-28|Apple Inc.|Intelligent automated assistant for media exploration|
US10403278B2|2017-05-16|2019-09-03|Apple Inc.|Methods and systems for phonetic matching in digital assistant services|
US10311144B2|2017-05-16|2019-06-04|Apple Inc.|Emoji word sense disambiguation|
US10657328B2|2017-06-02|2020-05-19|Apple Inc.|Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling|
TWM550500U|2017-07-14|2017-10-11|正文科技股份有限公司|音訊播放系統|
US10445429B2|2017-09-21|2019-10-15|Apple Inc.|Natural language understanding using vocabularies with compressed serialized tries|
US10755051B2|2017-09-29|2020-08-25|Apple Inc.|Rule-based natural language processing|
US10636424B2|2017-11-30|2020-04-28|Apple Inc.|Multi-turn canned dialog|
US10733982B2|2018-01-08|2020-08-04|Apple Inc.|Multi-directional dialog|
US10733375B2|2018-01-31|2020-08-04|Apple Inc.|Knowledge-based framework for improving natural language understanding|
US10789959B2|2018-03-02|2020-09-29|Apple Inc.|Training speaker recognition models for digital assistants|
US10592604B2|2018-03-12|2020-03-17|Apple Inc.|Inverse text normalization for automatic speech recognition|
US10818288B2|2018-03-26|2020-10-27|Apple Inc.|Natural assistant interaction|
DK201870382A1|2018-06-01|2020-01-13|Apple Inc.|Attention aware virtual assistant dismissal|
DK179822B1|2018-06-01|2019-07-12|Apple Inc.|Voice interaction at a primary device to access call functionality of a companion device|
US10496705B1|2018-06-03|2019-12-03|Apple Inc.|Accelerated task performance|
US10795638B2|2018-10-19|2020-10-06|Bose Corporation|Conversation assistance audio device personalization|
法律状态:
2012-02-16| A621| Written request for application examination|Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120215 |
2013-02-21| A977| Report on retrieval|Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130221 |
2013-03-01| A131| Notification of reasons for refusal|Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130228 |
2013-05-31| A601| Written request for extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130530 |
2013-06-07| A602| Written permission of extension of time|Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130606 |
2013-08-29| A524| Written submission of copy of amendment under section 19 (pct)|Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20130828 |
2014-01-22| A131| Notification of reasons for refusal|Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140121 |
2014-02-11| RD03| Notification of appointment of power of attorney|Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20140210 |
2014-04-19| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140418 |
2014-08-06| A02| Decision of refusal|Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140805 |
优先权:
申请号 | 申请日 | 专利标题
[返回顶部]